روش پیش تعلیم سریع بر مبنای کمینه سازی خطا برای همگرائی یادگیری شبکه های عصبی با ساختار عمیق
نویسندگان
چکیده
در این مقاله با توسعه روش های موجود و بر مبنای کمینه سازی خطا و حفظ تمایز بیشینه مابین نمونه ها یک روش پیش تعلیم لایه به لایه سریع و کارا جهت مقداردهی اولیه مناسب وزن ها در شبکه های عصبی با ساختارهای عمیق ارائه شده است. تعلیم شبکه های عصبی عمیق به دلیل مواجه با تعداد بالای کمینه های موضعی اغلب همگرا نمی گردد. درحالیکه با مقداردهی اولیه مناسب وزن های شبکه به جای مقادیر تصادفی در ابتدای مسیر تعلیم، می توان از بسیاری از کمینه های موضعی اجتناب نمود. در این روش شبکه عصبی چند لایه به تعداد متناظری شبکه با یک لایه پنهان شکسته می شود و ابتدا این شبکه های تک لایه تعلیم داده می شوند. سپس مقادیر وزن حاصل از تعلیم اینها در شبکه عصبی اصلی قرار داده می شود و برای تنظیم دقیق وزن ها، تعلیم یکپارچه صورت می گیرد. روش پیشنهادی برای پیش تعلیم شبکه عصبی خودانجمنی 5 لایه پنهان جهت استخراج مؤلفه های اساسی غیرخطی چهره برای دادگان بسفروس مورد استفاده قرار گرفت. مقایسه میانگین نتایج شبکه های عصبی با مقداردهی اولیه تصادفی و مقداردهی با روش پیش تعلیم لایه به لایه نشان می دهد که این روش پیش تعلیم علاوه بر اینکه سرعت همگرائی تعلیم را بهبود می دهد، قدرت تعمیم شبکه را نیز بالا می برد. به گونه ایکه با وجود خطای تعلیم یکسان، با بکارگیری روش پیش تعلیم لایه به لایه برای مقداردهی اولیه وزن ها، خطای بازسازی هر پیکسل %69/13 کاهش و درصد صحت بازشناسی تصاویر با استفاده از مؤلفه های استخراج شده حدود %10 رشد داشته است.
منابع مشابه
روش پیشتعلیم سریع بر مبنای کمینهسازی خطا برای همگرائی یادگیری شبکههای عصبی با ساختار عمیق
In this paper, we propose efficient method for pre-training of deep bottleneck neural network (DBNN). Pre-training is used for initial value of network weights convergence of DBNN is difficult because of different local minimums. While with efficient initial value for network weights can avoided some local minimums. This method divides DBNN to multi single hidden layer and adjusts them, then we...
متن کاملروش پیش تعلیم لایه به لایه دوسویه برای تعلیم شبکه های عصبی عمیق
در این مقاله، یک روش پیش تعلیم دوسویه برای همگرا نمودن تعلیم شبکه های عصبی عمیق با یادگیری دیگرانجمنی ارائه شده است. تعلیم این شبکه ها به دلیل مواجه بودن با تعداد بالای کمینه های موضعی اغلب همگرا نمی گردد. این در حالی است که با مقداردهی اولیه مناسب وزن های شبکه، می توان از بسیاری از کمینه های موضعی اجتناب نمود. روش پیش تعلیم لایه به لایه دوسویه روشی سریع و کارا می باشد که در یک مسیر دوسویه به ط...
متن کاملروش پیشتعلیم لایهبهلایه دوسویه برای تعلیم شبکههای عصبی عمیق
در این مقاله، یک روش پیشتعلیم دوسویه برای همگرا نمودن تعلیم شبکههای عصبی عمیق با یادگیری دیگرانجمنی ارائه شده است. تعلیم این شبکهها بهدلیل مواجه بودن با تعداد بالای کمینههای موضعی اغلب همگرا نمیگردد. این در حالی است که با مقداردهی اولیه مناسب وزنهای شبکه، میتوان از بسیاری از کمینههای موضعی اجتناب نمود. روش پیشتعلیم لایهبهلایه دوسویه روشی سریع و کارا میباشد که در یک مسیر دوسویه بهط...
متن کاملپالایش شرح گذاری مجموعه تصاویر با مقیاس بزرگ با یادگیری انتقالی در شبکه عصبی کانولوشنال عمیق
فرآیند پالایش شرح گذاری تصاویر، رویکردی موثر در بهبود بازیابی تصاویر مبتنی بر برچسب میباشد. در شبکه های اجتماعی و موتورهای جستجو بسیاری از تصاویر دارای تگ های مبهم، ناقص و بی ارتباط با محتوا هستند. وجود این تگ های غیرقابل اعتماد، موجب کاهش دقت بازیابی تصاویر می شود. از اینرو در دهه اخیر، الگوریتم هایی با عنوان پالایش تگ (TR) مطرح شدهاند که به رفع نویز و غنیسازی برچسبهای تصاویر میپر...
متن کاملرویکرد کمینه سازی خطا در روش های حرکت شبکه
روش های حرکت شبکه در مسائلی که دارای نغییرات بزرگ و شوک های مقطعی و ناگهانی هستند با ارائه شبکه های انعطاف پذیر تقریب مناسبی ارائه می دهند. در این پایان نامه، روشی جدید برای توزیع مجدد شبکه در شکل های اویلر و لاگرانژ معادله برگر یک بعدی ارائه می شود که آن را رویکرد کمینه سازی خطا می نامیم. سپس روش رویکرد کمینه سازی خطا همراه با هموار سازی شبکه و کمینه سازی نرم l2 خطا را با روش های لاگرانژمحض ...
15 صفحه اولمنابع من
با ذخیره ی این منبع در منابع من، دسترسی به آن را برای استفاده های بعدی آسان تر کنید
عنوان ژورنال:
پردازش علائم و داده هاجلد ۱۰، شماره ۱، صفحات ۲۶-۱۳
کلمات کلیدی
میزبانی شده توسط پلتفرم ابری doprax.com
copyright © 2015-2023